CEO OpenAI 'sợ' siêu AI
CEO OpenAI, Sam Altman, bày tỏ lo ngại về tương lai của siêu AI, cho rằng nó có thể gây ra rủi ro lớn hơn những gì đã chuẩn bị. Trong một podcast với Lex Fridman, ông chia sẻ rằng mặc dù nhiều người sợ hãi về AI, ông cũng cảm thấy lo lắng về vấn đề này.
Theo Sam Altman, CEO của OpenAI, AI có thể mang lại nhiều lợi ích lớn, nhưng ông lo ngại về thông tin sai lệch, cú sốc kinh tế và những tác động vượt xa sự chuẩn bị của con người. Ông cho rằng các mô hình ngôn ngữ lớn (LLM) có thể ảnh hưởng mạnh mẽ đến thông tin và cách tương tác trên Internet mà người dùng không nhận thức được.
Ông đưa ra ví dụ rằng LLM tích hợp vào mạng xã hội có thể dẫn dắt thông tin theo định hướng. Vào ngày 14/3, OpenAI ra mắt GPT-4 với khả năng xử lý đa phương thức, bao gồm cả hình ảnh, giúp người dùng tương tác linh hoạt. Tuy nhiên, tài liệu về cách xử lý rủi ro của GPT-4 cho thấy OpenAI lo ngại rằng mô hình AI có thể khuếch đại thành kiến và duy trì các khuôn mẫu.
Trong podcast, Altman khuyên người dùng không nên dùng AI cho các quyết định rủi ro cao như thực thi pháp luật, tư pháp hình sự, hay tư vấn pháp lý và sức khỏe. Ông cũng cho biết các mô hình AI của công ty đang học cách cẩn thận hơn trong việc trả lời. Để xây dựng cộng đồng và phát triển xã hội, chúng tôi đã loại bỏ một số nội dung.
Ông cho biết hiện đang có một số sai sót và chúng tôi sẽ phát triển các phiên bản tốt hơn. Chúng tôi cố gắng kiểm soát những thông tin mà AI không nên trả lời. Mọi thứ đều có mặt tốt và xấu, chúng tôi sẽ giảm thiểu điều xấu và tối đa hóa điều tốt. Gần đây, Altman thường nhắc đến nỗi lo lắng về AI, đặc biệt sau sự chú ý từ các sản phẩm như Dall-E và ChatGPT. Đầu năm nay, ông thừa nhận đã bị sốc vì sự phổ biến của ChatGPT.
Hôm 17/3, ông cảnh báo rằng công nghệ trí tuệ nhân tạo có thể thay đổi xã hội kèm theo nhiều nguy hiểm khó lường, và chúng ta cần thận trọng. Ông Altman nhấn mạnh rằng mọi người nên vui mừng khi chúng tôi bày tỏ lo ngại về AI, đặc biệt là khi các mô hình này có thể bị lạm dụng để phát tán tin giả. Tỷ phú Elon Musk cũng nhiều lần cảnh báo rằng AI và trí tuệ nhân tạo tổng hợp có thể nguy hiểm hơn cả vũ khí hạt nhân.
Altman thừa nhận rằng phiên bản GPT-4 sử dụng phương pháp suy luận thay vì ghi nhớ, dẫn đến phản hồi kỳ lạ với người dùng. Ông nhấn mạnh về vấn đề ảo giác, khi mô hình AI đưa ra thông tin mà nó cho là thực tế nhưng thực ra là bịa đặt. CEO OpenAI cảm thấy tồi tệ về lỗi của ChatGPT.
Nguồn:vnexpress.net/ceo-openai-so-sieu-ai-4586326.html